CN115293995B - 一种基于Transformer的点云逐点去噪方法 - Google Patents
一种基于Transformer的点云逐点去噪方法 Download PDFInfo
- Publication number
- CN115293995B CN115293995B CN202211219637.0A CN202211219637A CN115293995B CN 115293995 B CN115293995 B CN 115293995B CN 202211219637 A CN202211219637 A CN 202211219637A CN 115293995 B CN115293995 B CN 115293995B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- denoising
- scale
- scale information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 30
- 230000008569 process Effects 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims description 24
- 238000005070 sampling Methods 0.000 claims description 14
- 230000008447 perception Effects 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 11
- 230000002776 aggregation Effects 0.000 claims description 10
- 238000004220 aggregation Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012952 Resampling Methods 0.000 claims description 2
- 230000007547 defect Effects 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 8
- 238000007781 pre-processing Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006116 polymerization reaction Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Processing (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及点云数据预处理技术领域,解决了现有技术无法同时感知不同尺度下点的局部特征缺陷的技术问题,尤其涉及一种基于Transformer的点云逐点去噪方法,包括以下过程:S1、创建点云多尺度数据集,点云多尺度数据集包括不同尺度的点云面片及面片中心点的真值;S2、构建基于多尺度信息的点云去噪网络模型;S3、采用点云多尺度数据集对点云去噪网络模型进行训练;S4、将含有噪声点的点云数据输入至点云去噪网络模型中完成点云去噪。本发明利用Transformer模型结构和多尺度信息全局感知解决了现有技术无法同时感知不同尺度下点的局部特征的缺陷,提升了点云去噪效果,以实现对点云数据的高质量去噪。
Description
技术领域
本发明涉及点云数据预处理技术领域,尤其涉及一种基于Transformer的点云逐点去噪方法。
背景技术
近年来,计算机图形学技术飞快发展,三维数据的高精度表示逐渐成为虚拟现实、增强现实等新兴技术最为迫切的需求,尤其是在工业领域,对三维数据的精度有着更高的要求标准。
点云是某个坐标系下的点的数据集。点云可以包含丰富的信息,包括三维坐标X,Y,Z、颜色、分类值、强度值、时间等等。三维点云作为一种长期应用的三维对象表示方式,在近些年来取得了长足发展,在工业测量、智能驾驶、虚拟现实等领域的发展中发挥了重要作用。一般的点云数据是由激光扫描仪,激光雷达等设备获取的,由于光学仪器采集数据的过程较为复杂,因此获取过程中容易受到干扰,数据中通常存在大量的噪声点,需要在使用之前进行预处理,才能被应用于实际工程中,然而目前所采用的噪声点去除方法存在无法同时感知不同尺度下点的局部特征的缺陷,从而严重影响对于点云数据中噪声点的去噪效果,加强了点云去噪误差。
发明内容
针对现有技术的不足,本发明提供了一种基于Transformer的点云逐点去噪方法,解决了现有技术无法同时感知不同尺度下点的局部特征缺陷的技术问题,本发明提升了点云去噪效果,降低了点云去噪误差,以实现对点云数据的高质量去噪。
为解决上述技术问题,本发明提供了如下技术方案:一种基于Transformer的点云逐点去噪方法,包括以下过程:
S1、创建点云多尺度数据集,点云多尺度数据集包括不同尺度的点云面片及面片中心点的真值;
S2、构建基于多尺度信息的点云去噪网络模型;
S3、采用点云多尺度数据集对点云去噪网络模型进行训练;
S4、将含有噪声点的点云数据输入至点云去噪网络模型中完成点云去噪。
进一步地,在步骤S1中,创建点云多尺度数据集的具体过程包括以下步骤:
S11、获取若干三维点云模型的点云数据及其对应的真值;
S12、根据三维点云模型的点云数据进行采样得到点云中每一个点对应的五个不同尺度的邻域面片点集;
S13、将五个不同尺度的邻域面片点集的数量大小统一为N得到五个矩阵构成点云多尺度数据集,对于点集的数量少于N的邻域面片,则根据步骤S12进行重采样至数量为N,对于点集的数量多于N的邻域面片,则进行下采样至点数为N。
进一步地,在步骤S12中,根据三维点云模型的点云数据进行采样得到点云中每一个点对应的五个不同尺度的邻域面片点集的具体过程包括以下步骤:
S122、采用格点采样法在每个邻域面片的点云数据中选取S个采样点定义为S值;
S123、根据S值得到五个不同尺度的邻域面片K值构成邻域面片点集,五个不同尺度的邻域面片K值分别为S值的1%、1.5%、2%、2.5%、3%。
进一步地,在步骤S2中,构建基于多尺度信息的点云去噪网络模型的具体过程包括以下步骤:
S21、组建多尺度信息编码器,输出5个不同尺度的[1,128]的特征矩阵;
S22、组建多尺度信息Transformer Encoder Block,多尺度信息TransformerEncoder Block由3个Encoder结构组成,3个Encoder结构依次连接;
S23、将步骤S21中输出的5个不同尺度的[1,128]特征矩阵输入到多尺度信息Transformer Encoder Block中,3个Encoder结构输出的向量进行拼接,得到5个尺度下的[1,384]的多层次编码聚合特征向量;
S24、组建多尺度信息Transformer Decoder Block,多尺度信息TransformerDecoder Block由3个Decoder结构组成,3个Decoder结构依次连接;
多尺度信息Transformer Decoder Block的输入由两部分构成,分别为预测输入部分和训练输入部分;
进行预测时,从预测输入部分输入S23中得到的5个尺度下的[1,384]的多层次编码聚合特征向量;
进行训练时,从训练输入部分额外输入三维点云数据的真值作为Target数据;将3个Decoder结构输出的向量进行拼接,输出5个尺度下的[1,1152]的多层次解码聚合特征向量;
S25、组建多尺度信息全局感知模块,多尺度信息全局感知模块由[1024,512,64,3]的全连接层组成;
S26、将步骤S24中的5个尺度下的[1,1152]的多层次解码聚合特征向量相加得到[1,1152]的全局特征感知向量;
S27、将全局特征感知向量输入到多尺度信息全局感知模块中输出[1,3]的位置偏移矩阵,得到点的位置偏移量;
S28、将点的位置偏移量添加到原始点中得到滤波后的点三维坐标。
进一步地,多尺度信息编码器由5个子编码器组成,5个子编码器之间不共享权重,每个子编码器负责一个尺度邻域面片的特征信息提取;
子编码器由一个[64,64,128]的多层感知器和一个最大池化层组成。
进一步地,每个Encoder结构由Multi-Head Attention结构和全连接神经网络Feed Forward Network组成,每个Encoder结构后添加残差模块及归一化处理模块。
进一步地,每个Decoder由Masked Multi-Head Attention、Multi-HeadAttention、全连接神经网络Feed Forward Network组成,每个Decoder结构后添加残差模块及归一化处理模块。
进一步地,在步骤S3中,采用点云多尺度数据集对点云去噪网络模型进行训练的具体过程包括以下步骤:
S31、定义多尺度信息的点云中各尺度偏移损失的度量函数;
S32、将点云多尺度数据集按8:2的比例划分为训练集和测试集;
S33、将训练集输入至点云去噪网络模型中进行训练得到训练后的点云去噪网络模型;
S34、采用测试集对训练后的点云去噪网络模型进行测试。
借由上述技术方案,本发明提供了一种基于Transformer的点云逐点去噪方法,至少具备以下有益效果:
本发明通过构建基于多尺度信息的点云去噪网络模型,利用Transformer模型结构和多尺度信息全局感知解决了现有技术无法同时感知不同尺度下点的局部特征的缺陷,提升了点云去噪效果,降低了点云去噪误差,以实现对点云数据的高质量去噪。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明点云逐点去噪方法的流程图;
图2为本发明构建的点云去噪网络模型的原理框架图;
图3为本发明点云去噪网络模型中Encoder与Decoder的原理框架图;
图4为本发明去噪前后的点云可视化效果图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图 和具体实施方式对本发明作进一步详细的说明。借此对本申请如何应用技术手段来解决技术问题并达成技术功效的实现过程能充分理解并据以实施。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
请参照图1-图4,示出了本实施例的一种具体实施方式,本实施例通过采用Transformer模型结构并结合相应的方法实现对点云数据中所存在的噪声点完美去除,解决了现有技术无法同时感知不同尺度下点的局部特征的缺陷,提高了去噪性能,以实现对点云数据的高质量去噪。
在近年来,Transformer模型结构在计算机视觉领域带来了革命性的提升,Transformer模型内的Attention机制可以使得深度学习神经网络在训练过程中更加集中于我们所关注的对象的局部特征,使得我们得以将其应用到点云去噪中,因此,请参照图1,本实施例提出一种基于Transformer的点云逐点去噪方法,该方法在实际应用时可以直接部署到相应程序中,以对点云数据进行预处理,整个方法的实现过程如下:
S1、创建点云多尺度数据集,点云多尺度数据集包括不同尺度的点云面片及面片中心点的真值。
在步骤S1中,创建点云多尺度数据集的具体过程包括以下步骤:
S11、获取若干三维点云模型的点云数据及其对应的真值,三维点云模型的数据由激光扫描仪或激光雷达等设备扫描实体而获取的,以图4为例,图像中所展示的便是相对应实体的三维点云模型,该模型由大量的点云数据构成。
S12、根据三维点云模型的点云数据进行采样得到点云中每一个点对应的五个不同尺度的邻域面片点集。
具体的,对于三维点云模型数据中的每一个点,采用K邻近法分别获取点数为的5种不同尺度大小的邻域面片。获取邻域面片的方法为:采用格点采样法在每片点云数据中选取20000个采样点。5个不同尺度的邻域面片K值分别为S值的1%、1.5%、2%、2.5%、3%,即5个尺度下的点数分别为200、300、400、500、600。
在步骤S12中,根据三维点云模型的点云数据进行采样得到点云中每一个点对应的五个不同尺度的邻域面片点集的具体过程包括以下步骤:
S122、采用格点采样法在每个邻域面片的点云数据中选取S个采样点定义为S值。
S123、根据S值得到五个不同尺度的邻域面片K值构成邻域面片点集,五个不同尺度的邻域面片K值分别为S值的1%、1.5%、2%、2.5%、3%,即5个尺度下的点数分别为200、300、400、500、600。
S13、将五个不同尺度的邻域面片点集的数量大小统一为N得到五个矩阵构成点云多尺度数据集,对于点集的数量少于N的邻域面片,则根据步骤S12进行重采样至数量为N,对于点集的数量多于N的邻域面片,则进行下采样至点数为N。将得到的五个/>矩阵作为下一步骤网络的输入,另外对应的面片的真值用于训练中计算损失函数。
具体的,对于获取的5种不同尺度大小的邻域面片,将其数量大小统一为 400,对于点数少于400的邻域面片,进行重采样至点数为400,对于点数多于400的邻域面片,则进行下采样至点数为400,得到5个[400,3]矩阵。将得到的5个[400,3]矩阵作为下一步骤网络的输入,另外对应的面片真值用于训练中计算损失函数。
S2、构建基于多尺度信息的点云去噪网络模型,点云去噪网络模型的原理框架如图2所示。
请参照图2,构建基于多尺度信息的点云去噪网络模型的具体过程包括以下步骤:
S21、组建多尺度信息编码器,多尺度信息编码器由5个子编码器组成,每个子编码器负责一个尺度邻域面片的特征信息提取。子编码器由一个[64,64,128]的多层感知器和一个最大池化层组成,5个子编码器之间不共享权重,最后输出5个不同尺度的[1,128]的特征矩阵。
S22、组建多尺度信息Transformer Encoder Block,多尺度信息TransformerEncoder Block由3个Encoder结构组成,其结构如图3所示,3个Encoder结构依次连接。每个Transformer Encoder结构由Multi-Head Attention结构和全连接神经网络Feed ForwardNetwork组成,每个Transformer Encoder结构后添加残差模块及归一化处理模块。
S23、将步骤S21中输出的5个不同尺度的[1,128]特征矩阵输入到多尺度信息Transformer Encoder Block中,3个Encoder结构输出的向量进行拼接,最后得到5个尺度下的[1,384]的多层次编码聚合特征向量。
S24、组建多尺度信息Transformer Decoder Block,多尺度信息TransformerDecoder Block由3个Decoder结构组成,其结构如图3所示,3个Decoder结构依次连接。每个Decoder结构由Masked Multi-Head Attention、Multi-Head Attention、全连接神经网络Feed Forward Network组成,每个Decoder结构后添加残差模块及归一化处理模块。
其中,Masked Multi-Head Attention结构与上述Multi-Head Attention不同在于,Masked Multi-Head Attention采用mask掩码遮挡Target数据中尚未训练到的数据真值。
多尺度信息Transformer Decoder Block的输入由两部分构成,分别为预测输入部分和训练输入部分。
进行预测时,从预测输入部分输入S23中得到的5个尺度下的[1,384]的多层次编码聚合特征向量。
进行训练时,从训练输入部分额外输入三维点云数据的真值作为Target数据。将3个Decoder结构输出的向量进行拼接,最后输出5个尺度下的[1,1152]的多层次解码聚合特征向量。
S25、组建多尺度信息全局感知模块,多尺度信息全局感知模块由[1024,512,64,3]的全连接层组成。
S26、将步骤S24中的5个尺度下的[1,1152]的多层次解码聚合特征向量相加得到[1,1152]的全局特征感知向量。
S27、将全局特征感知向量输入到多尺度信息全局感知模块中输出[1,3]的位置偏移矩阵,得到点的位置偏移量。
S28、将点的位置偏移量添加到原始点中得到滤波后的点三维坐标,原始点为三维点云模型的点云数据,点云数据中包含原始点的坐标。
通过上述步骤S21-S28完成构建基于多尺度信息的点云去噪网络模型,通过构建基于多尺度信息的点云去噪网络模型,利用Transformer模型结构和多尺度信息全局感知解决了现有技术无法同时感知不同尺度下点的局部特征的缺陷,提升了点云去噪效果,降低了点云去噪误差,以实现对点云数据的高质量去噪。
S3、采用点云多尺度数据集对点云去噪网络模型进行训练。
在步骤S3中,采用点云多尺度数据集对点云去噪网络模型进行训练的具体过程包括以下步骤:
S31、定义多尺度信息的点云中各尺度偏移损失的度量函数。
S32、将点云多尺度数据集按8:2的比例划分为训练集和测试集。
S33、将训练集输入至点云去噪网络模型中进行训练得到训练后的点云去噪网络模型。
S34、采用测试集对训练后的点云去噪网络模型进行测试。
通过采用,定义多尺度信息的点云中各尺度偏移损失的度量函数,能够使训练集更加适用于点云去噪网络模型,同时提高对于构建的点云去噪网络模型的训练精度,从而提高了同时对于不同尺度下点的局部特征的感知能力,而且配合测试集对点云去噪网络模型进行测试,能够便于确认点云去噪网络模型的性能是否满足去噪要求,并能够根据测试结果对点云去噪网络模型的各项参数进行快速调整。
S4、将含有噪声点的点云数据输入至点云去噪网络模型中完成点云去噪。
更具体的,使用训练完成的点云去噪网络模型实现点云去噪,利用训练完成的点云去噪网络模型来调整待去噪点的三维坐标,从而完成点云去噪。
本发明通过构建基于多尺度信息的点云去噪网络模型,利用Transformer模型结构和多尺度信息全局感知解决了现有技术无法同时感知不同尺度下点的局部特征的缺陷,提升了点云去噪效果,降低了点云去噪误差,以实现对点云数据的高质量去噪。
以上实施方式对本发明进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于Transformer的点云逐点去噪方法,其特征在于,该去噪方法包括以下步骤:
S1、创建点云多尺度数据集,点云多尺度数据集包括不同尺度的点云面片及面片中心点的真值;
S2、构建基于多尺度信息的点云去噪网络模型;
在步骤S2中,构建基于多尺度信息的点云去噪网络模型的具体过程包括以下步骤:
S21、组建多尺度信息编码器,输出5个不同尺度的[1,128]的特征矩阵;
S22、组建多尺度信息Transformer Encoder Block,多尺度信息Transformer EncoderBlock由3个Encoder结构组成,3个Encoder结构依次连接;
S23、将步骤S21中输出的5个不同尺度的[1,128]特征矩阵输入到多尺度信息Transformer Encoder Block中,3个Encoder结构输出的向量进行拼接,得到5个尺度下的[1,384]的多层次编码聚合特征向量;
S24、组建多尺度信息Transformer Decoder Block,多尺度信息Transformer DecoderBlock由3个Decoder结构组成,3个Decoder结构依次连接;
多尺度信息Transformer Decoder Block的输入由两部分构成,分别为预测输入部分和训练输入部分;
进行预测时,从预测输入部分输入S23中得到的5个尺度下的[1,384]的多层次编码聚合特征向量;
进行训练时,从训练输入部分额外输入三维点云数据的真值作为Target数据;将3个Decoder结构输出的向量进行拼接,输出5个尺度下的[1,1152]的多层次解码聚合特征向量;
S25、组建多尺度信息全局感知模块,多尺度信息全局感知模块由[1024,512,64,3]的全连接层组成;
S26、将步骤S24中的5个尺度下的[1,1152]的多层次解码聚合特征向量相加得到[1,1152]的全局特征感知向量;
S27、将全局特征感知向量输入到多尺度信息全局感知模块中输出[1,3]的位置偏移矩阵,得到点的位置偏移量;
S28、将点的位置偏移量添加到原始点中得到滤波后的点三维坐标;
S3、采用点云多尺度数据集对点云去噪网络模型进行训练;
S4、将含有噪声点的点云数据输入至点云去噪网络模型中完成点云去噪。
4.根据权利要求1所述的点云逐点去噪方法,其特征在于:多尺度信息编码器由5个子编码器组成,每个子编码器负责一个尺度邻域面片的特征信息提取;
子编码器由一个[64,64,128]的多层感知器和一个最大池化层组成。
5.根据权利要求1所述的点云逐点去噪方法,其特征在于:每个Encoder结构由Multi-Head Attention结构和全连接神经网络Feed Forward Network组成,每个Encoder结构后添加残差模块及归一化处理模块。
6.根据权利要求1所述的点云逐点去噪方法,其特征在于:每个Decoder由MaskedMulti-Head Attention、Multi-Head Attention、全连接神经网络Feed Forward Network组成,每个Decoder结构后添加残差模块及归一化处理模块。
7.根据权利要求1所述的点云逐点去噪方法,其特征在于:在步骤S3中,采用点云多尺度数据集对点云去噪网络模型进行训练的具体过程包括以下步骤:
S31、定义多尺度信息的点云中各尺度偏移损失的度量函数;
S32、将点云多尺度数据集按8:2的比例划分为训练集和测试集;
S33、将训练集输入至点云去噪网络模型中进行训练得到训练后的点云去噪网络模型;
S34、采用测试集对训练后的点云去噪网络模型进行测试。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211219637.0A CN115293995B (zh) | 2022-10-08 | 2022-10-08 | 一种基于Transformer的点云逐点去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211219637.0A CN115293995B (zh) | 2022-10-08 | 2022-10-08 | 一种基于Transformer的点云逐点去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115293995A CN115293995A (zh) | 2022-11-04 |
CN115293995B true CN115293995B (zh) | 2023-03-24 |
Family
ID=83834029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211219637.0A Active CN115293995B (zh) | 2022-10-08 | 2022-10-08 | 一种基于Transformer的点云逐点去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115293995B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229399B (zh) * | 2023-03-08 | 2024-02-09 | 北京辉羲智能信息技术有限公司 | 一种用于自动驾驶图像处理的点云数据的特征提取方法、系统及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114240779A (zh) * | 2021-12-15 | 2022-03-25 | 成都飞机工业(集团)有限责任公司 | 一种点云去噪方法、装置、设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3457357B1 (en) * | 2017-09-13 | 2021-07-07 | Tata Consultancy Services Limited | Methods and systems for surface fitting based change detection in 3d point-cloud |
CN114627017B (zh) * | 2022-03-17 | 2022-12-13 | 南京航空航天大学 | 一种基于多层次注意力感知的点云去噪方法 |
-
2022
- 2022-10-08 CN CN202211219637.0A patent/CN115293995B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114240779A (zh) * | 2021-12-15 | 2022-03-25 | 成都飞机工业(集团)有限责任公司 | 一种点云去噪方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115293995A (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112861729B (zh) | 一种基于伪深度图引导的实时深度补全方法 | |
CN108416801B (zh) | 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 | |
CN111553858A (zh) | 基于生成对抗网络的图像修复方法、系统及其应用 | |
CN113762358A (zh) | 一种基于相对深度训练的半监督学习三维重建方法 | |
CN115293995B (zh) | 一种基于Transformer的点云逐点去噪方法 | |
CN112435193A (zh) | 一种点云数据去噪的方法、装置、存储介质和电子设备 | |
CN110136048B (zh) | 一种图像配准方法及系统、存储介质及终端 | |
CN115908772A (zh) | 一种基于Transformer和融合注意力机制的目标检测方法及系统 | |
CN112163990A (zh) | 360度图像的显著性预测方法及系统 | |
CN115546273A (zh) | 一种面向室内鱼眼图像的场景结构深度估计方法 | |
Zhuang et al. | A dense stereo matching method based on optimized direction-information images for the real underwater measurement environment | |
CN116645365B (zh) | 基于频谱的石英玻璃检测方法、装置、设备及介质 | |
CN116912148A (zh) | 图像增强方法、装置、计算机设备及计算机可读存储介质 | |
CN113837243B (zh) | 基于边缘信息的rgb-d相机动态视觉里程计方法 | |
CN115546270A (zh) | 多尺度特征融合的图像配准方法、模型训练方法及设备 | |
CN113450364B (zh) | 一种基于三维通量模型的树状结构中心线提取方法 | |
CN115496738A (zh) | 基于Transformer与SE的磁瓦缺陷检测方法 | |
CN115601423A (zh) | 一种双目视觉场景下基于边缘增强的圆孔位姿测量方法 | |
CN115239559A (zh) | 一种融合视图合成的深度图超分辨率方法及系统 | |
CN115115860A (zh) | 一种基于深度学习的图像特征点检测匹配网络 | |
CN110084887B (zh) | 一种空间非合作目标相对导航模型三维重建方法 | |
CN113763261A (zh) | 一种海雾气象条件下的远小目标实时检测方法 | |
CN109587469B (zh) | 基于人工智能识别的影像处理方法及装置 | |
CN111899284A (zh) | 一种基于参数化esm网络的平面目标跟踪方法 | |
CN111985535A (zh) | 一种通过神经网络优化人体深度图的方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |