CN114638751A - 基于生成对抗网络的端到端点云补全方法 - Google Patents

基于生成对抗网络的端到端点云补全方法 Download PDF

Info

Publication number
CN114638751A
CN114638751A CN202210173243.XA CN202210173243A CN114638751A CN 114638751 A CN114638751 A CN 114638751A CN 202210173243 A CN202210173243 A CN 202210173243A CN 114638751 A CN114638751 A CN 114638751A
Authority
CN
China
Prior art keywords
point cloud
point
missing
cloud
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210173243.XA
Other languages
English (en)
Inventor
葛军
陈小龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210173243.XA priority Critical patent/CN114638751A/zh
Publication of CN114638751A publication Critical patent/CN114638751A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种基于生成对抗网络的端到端点云补全方法。该方法包括:获取所需的原始点云数据集;对原始点云数据集中进行切割删除操作,保留切割部分点云和缺失点云作为模型训练的数据;对缺失点云进行下采样操作获取两个低分辨率的点云和点云;构建生成器网络和判别器网络;将缺失点云、点云和点云作为生成器网络的输入,输出缺失部分的点云;将切割部分点云和缺失部分的点云作为判别器的输入,输出缺失部分的点云的得分;通过反向传播的方式优化网络参数,得到点云补全模型;获取残缺点云输入点云补全模型进行点云补全,输出残缺点云的残缺部分点云;拼接残缺点云的残缺部分点云与残缺点云,获得补全后的点云。提高了点云补全方法的精度。

Description

基于生成对抗网络的端到端点云补全方法
技术领域
本申请涉及计算机视觉以及自动驾驶技术领域,特别是涉及一种基于生成对抗网络的端到端点云补全方法。
背景技术
在3D视觉领域,三维数据表示方法包括体素、点云和二进制网格.其中,点云具有数据量小、分辨率高的独特优势被广泛应用于3D数据处理.激光雷达、立体相机或RGBD深度相机是获取现实生活中点云的常用方式.传统的激光扫描仪存在成本高、效率低、质量差等缺点.其中,立体相机或深度相机被频繁使用,但在点云的实际采集过程中由于物体被遮挡、物体表面的光反射、物体的透明度和相机视角的限制,获取的点云数据基本是不完整的,因此为了让点云数据能够在自动驾驶、医学等领域中得到应用,所以对点云进行信息补全是一项非常重要的工作。
当前点云和体素是三维形状补全的主要数据源,《Shape inpainting using 3dgenerative adversarial network and recurrent convolutional networks》提出了基于体素网格的算法3D-ED-GAN以实现点云修复,但是基于体素的方法由于其分辨率的限制,在网络训练的过程中计算量会大大增加.《Pointnet:deep learning on point sets for3D classification and segmentation》提出了PointNet,它让点云数据直接作为神经网络的输入并实现点云形状的建模、分类及分割成为可能.PointNet一直在寻找一种对称函数用来解决点云的无序性问题,最终他们选择使用神经网络中的最大池化来解决该问题并取得了良好的效果.在此之后,点云补齐任务的算法才得到了极大的发展.《Learningrepresentations and generative models for 3d point clouds》提出了第一个使用编码器–解码器框架(L-GAN)去解决点云补齐任务的方法,因为该方法的体系结构主要不是以点云修复为任务所构建的,所以只能在一定程度上修复点云,因此目前的点云补全方法精度较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高点云补全方法精度的基于生成对抗网络的端到端点云补全方法。
一种基于生成对抗网络的端到端点云补全方法,所述方法包括:
S1、获取ModelNet40中公开的数据集,构建所需的原始点云数据集;
S2、先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云G1(N,3),N代表点云中点的个数,保留切割部分点云PGT和缺失点云G1(N,3)作为模型训练的数据;
S3、对缺失点云G1(N,3)使用随机点采样方法进行下采样操作获取两个分辨率小于1024×3的点云G2(N*,3)和点云G3(N**,3),N>N*>N**
S4、构建生成器网络和判别器网络,所述生成器网络包括多尺度Transformer编码器和特征解码器;
S5、将缺失点云G1(N,3)、点云G2(N*,3)和点云G3(N**,3)作为多尺度Transformer编码器的输入,得到全局特征向量Fp
S6、将所述全局特征向量Fp输入到特征解码器中,输出缺失部分的点云Pout
S7、将所述切割部分点云PGT和所述缺失部分的点云Pout作为判别器的输入,输出所述缺失部分的点云Pout的得分;
S8、根据所述缺失部分的点云Pout的得分,采用损失函数计算损失,通过反向传播的方式优化网络参数直至达到预设精度,完成模型训练,得到点云补全模型;
S9、获取残缺点云输入点云补全模型进行点云补全,输出所述残缺点云的残缺部分点云;
S10、拼接所述残缺点云的残缺部分点云与所述残缺点云,获得补全后的点云。
在其中一个实施例中,所述先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云G1(N,3)的步骤,包括:
在三维坐标系中的找到5个点,这5个点分别为O1(0,0,1)、O2(1,0,0)、O3(-1,0,0)、O4(1,0,1)、O5(-1,1,0),从这5个点中随机选取一个点作为中心点Oj,j∈(1,2…5),再计算原始点云中每个点Pi(xi,yi,zi),i∈(1,2…N)到中心点Oj的距离的平方和Di,i∈(1,2…N),删除Di中距离最小的前512个点,得到删除后的点云G1(N,3),其中,xi为三维坐标系中的x轴的坐标值,yi为三维坐标系中的y轴的坐标值,zi为三维坐标系中的z轴的坐标值。
在其中一个实施例中,所述对缺失点云G1(N,3)使用随机点采样方法进行下采样操作获取两个分辨率小于1024×3的点云G2(N*,3)和点云G3(N**,3)的步骤,包括:
首先在缺失点云G1(N,3)里随机选取一个点,以该点为圆心,以R=N/N*为半径形成一个圆,在该圆内范围的点中删除距离圆心最近的前R个点,如此循环N*次,得到低分辨率的点云G2(N*,3);
在点云G2(N*,3)中随机选取一点,以该点为圆心,以R=N*/N**为半径形成一个圆,在该圆内范围的点中删除距离圆心最近的前R个点,如此循环N**次,得到低分辨率的点云G3(N**,3)。
在其中一个实施例中,所述多尺度Transformer编码器由三个相同结构的Transformer编码器组成,将缺失点云G1(N,3)、点云G2(N*,3)和点云G3(N**,3)分别作为三个Transformer编码器的输入,输出包含G1,G2,G3点云信息的全局特征Fp,从而对残缺点云特征信息的提取。
在其中一个实施例中,所述Transformer编码器主要由点嵌入模块和叠加自注意力机制模块组成,点嵌入模块由2个相连的CBR组成,两个相连的CBR结构为(128,128),点嵌入模块将每个点看作是句子中的单词,将具有相似位置语义的点放在空间中相近的位置;以G1(N,3)为例,通过两个相连的CBR产生[128×128]的点嵌入特征信息Fe,点嵌入特征信息Fe会作为叠加注意力机制模块的输入,叠加自注意力机制模块由四个相连接并且相同结构的自注意力机制组成,自注意力机制主要由CBR组成,经过四个相连接自注意力机制将每个点映射到[128-128-128-128]的维度上,将这4维度拼接起来形成G1的全局特征
Figure BDA0003519351410000041
其大小为[128×512];同理,通过G2(N*,3)得到的全局特征
Figure BDA0003519351410000042
和通过G3(N**,3)得到的全局特征
Figure BDA0003519351410000043
的大小都为[128×512],拼接
Figure BDA0003519351410000044
Figure BDA0003519351410000045
再经过最大池化得到全局特征向量Fp,Fp维度为[1×1536]。
在其中一个实施例中,特征解码器主要由前馈神经网络组成,主要是对全局特征Fp解码,特征解码器将全局特征向量Fp作为它的输入,其内部由线性层和CBR组成,将[1×1536]维度的全局特征向量Fp解码成[M×3]的点云POut,Pout表示缺失部分的点云,M是缺失点的数量。
在其中一个实施例中,判别器由三个CBR、两个LBR和一个线性层组成,判别器将缺失部分的点云POut作为输入,通过三个连续的CBR产生[64-128-256]维度的中间特征,拼接该中间特征再经过最大池化得到[1×448]特征,然后通过两个LBR和一个线性层得到一个标量V,V代表生成器生成的缺失部分的点云Pout的得分。
在其中一个实施例中,所述损失函数为:
Figure BDA0003519351410000046
其中,LCD(S1,S2)为缺失部分的点云Pout和切割部分点云PGT之间的差距,S1为缺失部分的点云Pout,S2为切割部分点云PGT,x为缺失部分的点云Pout的某个点,y为切割部分点云PGT的某个点。
上述基于生成对抗网络的端到端点云补全方法,通过获取ModelNet40中公开的数据集,构建所需的原始点云数据集;先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云,保留切割部分点云和缺失点云作为模型训练的数据;对缺失点云使用随机点采样方法进行下采样操作获取两个低分辨率的点云和点云;构建生成器网络和判别器网络,所述生成器网络包括多尺度Transformer编码器和特征解码器;将缺失点云、点云和点云作为多尺度Transformer编码器的输入,得到全局特征向量;将所述全局特征向量输入到特征解码器中,输出缺失部分的点云;将所述切割部分点云和所述缺失部分的点云作为判别器的输入,输出所述缺失部分的点云的得分;根据所述缺失部分的点云的得分,采用损失函数计算损失,通过反向传播的方式优化网络参数直至达到预设精度,完成模型训练,得到点云补全模型;获取残缺点云输入点云补全模型进行点云补全,输出所述残缺点云的残缺部分点云;拼接所述残缺点云的残缺部分点云与所述残缺点云,获得补全后的点云。采用生成对抗网络的架构保证了网络训练的稳定性,能够学习全局上下文信息,通过多尺度Transformer编码器、特征解码器直接端到端的生成缺失部分的点云,使补全的点云不仅没有丢失几何语义信息而且还能保留原始点云的细节,提高了点云补全模型的精度,进一步解决了点云补全方法的结果缺失几何语义,细节差等问题,提高了点云补全方法的精度。
附图说明
图1为一个实施例中基于生成对抗网络的端到端点云补全方法中模型训练的整体网络结构图;
图2为一个实施例中生成器的网络结构图;
图3为一个实施例中判别器的网络结构图;
图4为本申请对缺失点云补全的效果可视化对比图;
图5为本申请对不同缺失程度点云的补全效果可视化对比图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种基于生成对抗网络的端到端点云补全方法,以该方法应用于终端为例进行说明,包括以下步骤:
一种基于生成对抗网络的端到端点云补全方法,所述方法包括:
S1、获取ModelNet40中公开的数据集,构建所需的原始点云数据集。
其中,ModelNet40公开的数据集,它共有40种类别的三维点云数据,每个点云数据都由N个点组成,N并不相同,每个点都包含三维坐标信息;共有80000个点云数据,本申请将其中的64000个点云作为训练集,16000个点云作为测试集。
S2、先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云G1(N,3),N代表点云中点的个数,保留切割部分点云PGT和缺失点云G1(N,3)作为模型训练的数据。
S3、对缺失点云G1(N,3)使用随机点采样方法进行下采样操作获取两个低分辨率的点云G2(N*,3)和点云G3(N**,3),N>N*>N**
其中,N*为点云G2数据中点的个数,N*<1024,N**为点云G3数据中点的个数,N**<1024。低分辨率的点云是指低于1024个点的点云。如设置N=1024,N*=512,N**=256。
S4、构建生成器网络和判别器网络,所述生成器网络包括多尺度Transformer编码器和特征解码器。
其中,如图2所示,生成器网络包括包括EncoderT(多尺度Transformer编码器)和DecoderM(特征解码器)。其中EncoderT由三个相同结构的Transformer编码器组成,Transformer编码器是一个基于Transformer的点云特征提取网络,它主要由点嵌入模块和叠加自注意力机制模块组成,点嵌入模块由2个相连的CBR(Convolution、BatchNorm、ReLU)组成,两个相连的CBR结构为(128,128),点嵌入模块将每个点看作是句子中的单词,它的作用是将具有相似位置语义的点放在空间中相近的位置。以G1(N,3)为例,通过两个相连的CBR产生[128×128]的点嵌入特征信息Fe。Fe会作为叠加注意力机制模块的输入,叠加自注意力机制模块由四个相连接并且相同结构的自注意力机制组成,自注意力机制主要由CBR组成,假设输入大小为Row×Col,首先,每个自注意力机内部通过同一个线性层得到Query矩阵、Key矩阵、Value矩阵,三个矩阵的大小分别是Row×Col*、Col*×Row、Row×Col,其中Key矩阵得到前需要进行转置,然后将Query矩阵和Key矩阵进行矩阵相乘就得到了注意力权重(Attention weight),其大小为Row×Row,注意力权重大小代表每一个点与其他点之间的语义相似程度,相关程度,最后将得到的注意力权重经过归一化再和Value矩阵进行矩阵相乘将得到注意力特征(Attention feature),大小为Row×Col,这样通过一层自注意力机制之后的输出和输入是一样的大小Row×Col,我们在注意力机制模块中堆叠了4层自注意力机制,经过四个相连接自注意力机制将每个点映射到[128-128-128-128]的维度上,将这4维度拼接起来形成G1的全局特征
Figure BDA0003519351410000071
其大小为[128×512];同理,通过G2(N*,3)得到的全局特征
Figure BDA0003519351410000072
和通过G3(N**,3)得到的全局特征
Figure BDA0003519351410000073
的大小都为[128×512],拼接
Figure BDA0003519351410000074
Figure BDA0003519351410000075
再经过最大池化得到全局特征向量Fp,Fp维度为[1×1536];特征解码器由前馈神经网络组成,特征解码器将全局特征向量Fp作为它的输入,其内部由线性层和CBR组成,将[1×1536]维度的全局特征向量Fp解码成[M×3]的点云POut,表示补全缺失区域的点云,M是缺失点的数量。
S5、将缺失点云G1(N,3)、点云G2(N*,3)和点云G3(N**,3)作为多尺度Transformer编码器的输入,得到全局特征向量Fp
S6、将所述全局特征向量Fp输入到特征解码器中,输出缺失部分的点云Pout
S7、将所述切割部分点云PGT和所述缺失部分的点云Pout作为判别器的输入,输出所述缺失部分的点云Pout的得分。
S8、根据所述缺失部分的点云Pout的得分,采用损失函数计算损失,通过反向传播的方式优化网络参数直至达到预设精度,完成模型训练,得到点云补全模型。
S9、获取残缺点云输入点云补全模型进行点云补全,输出所述残缺点云的残缺部分点云。
S10、拼接所述残缺点云的残缺部分点云与所述残缺点云,获得补全后的点云。
在一个实施例中,所述先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云G1(N,3)的步骤,包括:
在三维坐标系中的找到5个点,这5个点分别为O1(0,0,1)、O2(1,0,0)、O3(-1,0,0)、O4(1,0,1)、O5(-1,1,0),从这5个点中随机选取一个点作为中心点Oj,j∈(1,2…5),再计算原始点云中每个点Pi(xi,yi,zi),i∈(1,2…N)到中心点Oj的距离的平方和Di,i∈(1,2…N),删除Di中距离最小的前512个点,得到删除后的点云G1(N,3),其中,xi为三维坐标系中的x轴的坐标值,yi为三维坐标系中的y轴的坐标值,zi为三维坐标系中的z轴的坐标值。
在一个实施例中,所述对缺失点云G1(N,3)使用随机点采样方法进行下采样操作获取两个低分辨率的点云G2(N*,3)和点云G3(N**,3)的步骤,包括:
首先在缺失点云G1(N,3)里随机选取一个点,以该点为圆心,以R=N/N*为半径形成一个圆,在该圆内范围的点中删除距离圆心最近的前R个点,如此循环N*次,得到低分辨率的点云G2(N*,3);
在点云G2(N*,3)中随机选取一点,以该点为圆心,以R=N*/N**为半径形成一个圆,在该圆内范围的点中删除距离圆心最近的前R个点,如此循环N**次,得到低分辨率的点云G3(N**,3)。
在一个实施例中,所述多尺度Transformer编码器由三个相同结构的Transformer编码器组成,将缺失点云G1(N,3)、点云G2(N*,3)和点云G3(N**,3)分别作为三个Transformer编码器的输入,输出包含G1,G2,G3点云信息的全局特征Fp,从而对残缺点云特征信息的提取。
其中,多尺度Transformer编码器可以提取点云不同分辨率的局部细节特征;从而有效的提高点云补全的精度。
在一个实施例中,所述Transformer编码器主要由点嵌入模块和叠加自注意力机制模块组成,点嵌入模块由2个相连的CBR组成,两个相连的CBR结构为(128,128),点嵌入模块将每个点看作是句子中的单词,将具有相似位置语义的点放在空间中相近的位置;以G1(N,3)为例,通过两个相连的CBR产生[128×128]的点嵌入特征信息Fe,点嵌入特征信息Fe会作为叠加注意力机制模块的输入,叠加自注意力机制模块由四个相连接并且相同结构的自注意力机制组成,自注意力机制主要由CBR组成,经过四个相连接自注意力机制将每个点映射到[128-128-128-128]的维度上,将这4维度拼接起来形成G1的全局特征
Figure BDA0003519351410000091
其大小为[128×512];同理,通过G2(N*,3)得到的全局特征
Figure BDA0003519351410000092
和通过G3(N**,3)得到的全局特征
Figure BDA0003519351410000093
的大小都为[128×512],拼接
Figure BDA0003519351410000094
Figure BDA0003519351410000095
再经过最大池化得到全局特征向量Fp,Fp维度为[1×1536]。
其中,CBR指的是卷积归一化模块,由Convolution、BatchNorm和ReLU依次相连构成。
在一个实施例中,特征解码器主要由前馈神经网络组成,主要是对全局特征Fp解码,特征解码器将全局特征向量Fp作为它的输入,其内部由线性层和CBR组成,将[1×1536]维度的全局特征向量Fp解码成[M×3]的点云POut,Pout表示缺失部分的点云,M是缺失点的数量。
在一个实施例中,如图3所示,判别器由三个CBR、两个LBR和一个线性层组成,判别器将缺失部分的点云POut作为输入,通过三个连续的CBR产生[64-128-256]维度的中间特征,拼接该中间特征再经过最大池化得到[1×448]特征,然后通过两个LBR和一个线性层得到一个标量V,V代表生成器生成的缺失部分的点云Pout的得分。
其中,LBR指的是线性归一化模块,由Linear、BatchNorm和ReLU依次相连构成。
在一个实施例中,所述损失函数为:
Figure BDA0003519351410000101
其中,LCD(S1,S2)为缺失部分的点云Pout和切割部分点云PGT之间的差距,S1为缺失部分的点云Pout,S2为切割部分点云PGT,x为缺失部分的点云Pout的某个点,y为切割部分点云PGT的某个点。
其中,倒角距离(CD距离)能够衡量修复补全后的点云形状与真实点云形状之间的差异,该值越接近零表示点云之间的相似程度越高,修复补全效果越好。
上述基于生成对抗网络的端到端点云补全方法,通过获取ModelNet40中公开的数据集,构建所需的原始点云数据集;先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云,保留切割部分点云和缺失点云作为模型训练的数据;对缺失点云使用随机点采样方法进行下采样操作获取两个低分辨率的点云和点云;构建生成器网络和判别器网络,所述生成器网络包括多尺度Transformer编码器和特征解码器;将缺失点云、点云和点云作为多尺度Transformer编码器的输入,得到全局特征向量;将所述全局特征向量输入到特征解码器中,输出缺失部分的点云;将所述切割部分点云和所述缺失部分的点云作为判别器的输入,输出所述缺失部分的点云的得分;根据所述缺失部分的点云的得分,采用损失函数计算损失,通过反向传播的方式优化网络参数直至达到预设精度,完成模型训练,得到点云补全模型;获取残缺点云输入点云补全模型进行点云补全,输出所述残缺点云的残缺部分点云;拼接所述残缺点云的残缺部分点云与所述残缺点云,获得补全后的点云。采用生成对抗网络的架构保证了网络训练的稳定性,能够学习全局上下文信息,通过多尺度Transformer编码器、特征解码器直接端到端的生成缺失部分的点云,使补全的点云不仅没有丢失几何语义信息而且还能保留原始点云的细节,提高了点云补全模型的精度,进一步解决了点云补全方法的结果缺失几何语义,细节差等问题,提高了点云补全方法的精度。
进一步地,本申请对不同缺失比例的点云也能有效的修复,具有良好的鲁棒性。
本发明还通过实验进行了结果分析,如图4所示,直观展示本申请的补全效果,在图4中通过和真值图(即实际的完整点云)对比可以看出本申请能够有效的修复飞机等对象的残缺部位,同时使生成的点云分布均匀。如图5所示,直观展示本申请的鲁棒性效果,本申请测试了不同缺失程度和不同缺失部位的点云形状修复实验,如图5所示给出了在一个飞机样本点云缺失程度分别50%、25%、35%的补全点云修复效果,实验结果表明,在不同缺失程度下,本申请方法都能将缺失部位进行补全。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种基于生成对抗网络的端到端点云补全方法,其特征在于,所述方法包括:
S1、获取ModelNet40中公开的数据集,构建所需的原始点云数据集;
S2、先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云G1(N,3),N代表点云中点的个数,保留切割部分点云PGT和缺失点云G1(N,3)作为模型训练的数据;
S3、对缺失点云G1(N,3)使用随机点采样方法进行下采样操作获取两个分辨率小于1024×3的点云G2(N*,3)和点云G3(N**,3),N>N*>N**
S4、构建生成器网络和判别器网络,所述生成器网络包括多尺度Transformer编码器和特征解码器;
S5、将缺失点云G1(N,3)、点云G2(N*,3)和点云G3(N**,3)作为多尺度Transformer编码器的输入,得到全局特征向量Fp
S6、将所述全局特征向量Fp输入到特征解码器中,输出缺失部分的点云Pout
S7、将所述切割部分点云PGT和所述缺失部分的点云Pout作为判别器的输入,输出所述缺失部分的点云Pout的得分;
S8、根据所述缺失部分的点云Pout的得分,采用损失函数计算损失,通过反向传播的方式优化网络参数直至达到预设精度,完成模型训练,得到点云补全模型;
S9、获取残缺点云输入点云补全模型进行点云补全,输出所述残缺点云的残缺部分点云;
S10、拼接所述残缺点云的残缺部分点云与所述残缺点云,获得补全后的点云。
2.根据权利要求1所述的方法,其特征在于,所述先对原始点云数据集中原始点云进行切割删除操作,在原始点云中删除一部分点云构建缺失点云G1(N,3)的步骤,包括:
在三维坐标系中的找到5个点,这5个点分别为O1(0,0,1)、O2(1,0,0)、O3(-1,0,0)、O4(1,0,1)、O5(-1,1,0),从这5个点中随机选取一个点作为中心点Oj,j∈(1,2…5),再计算原始点云中每个点Pi(xi,yi,zi),i∈(1,2…N)到中心点Oj的距离的平方和Di,i∈(1,2…N),删除Di中距离最小的前512个点,得到删除后的点云G1(N,3),其中,xi为三维坐标系中的x轴的坐标值,yi为三维坐标系中的y轴的坐标值,zi为三维坐标系中的z轴的坐标值。
3.根据权利要求1所述的方法,其特征在于,所述对缺失点云G1(N,3)使用随机点采样方法进行下采样操作获取两个分辨率小于1024×3的点云G2(N*,3)和点云G3(N**,3)的步骤,包括:
首先在缺失点云G1(N,3)里随机选取一个点,以该点为圆心,以R=N/N*为半径形成一个圆,在该圆内范围的点中删除距离圆心最近的前R个点,如此循环N*次,得到分辨率小于1024×3的点云G2(N*,3);
在点云G2(N*,3)中随机选取一点,以该点为圆心,以R=N*/N**为半径形成一个圆,在该圆内范围的点中删除距离圆心最近的前R个点,如此循环N**次,得到分辨率小于1024×3的点云G3(N**,3)。
4.根据权利要求1所述的方法,其特征在于,所述多尺度Transformer编码器由三个相同结构的Transformer编码器组成,将缺失点云G1(N,3)、点云G2(N*,3)和点云G3(N**,3)分别作为三个Transformer编码器的输入,输出包含G1,G2,G3点云信息的全局特征Fp,从而对残缺点云特征信息的提取。
5.根据权利要求4所述的方法,其特征在于,所述Transformer编码器主要由点嵌入模块和叠加自注意力机制模块组成,点嵌入模块由2个相连的CBR组成,两个相连的CBR结构为(128,128),点嵌入模块将每个点看作是句子中的单词,将具有相似位置语义的点放在空间中相近的位置;以G1(N,3)为例,通过两个相连的CBR产生[128×128]的点嵌入特征信息Fe,点嵌入特征信息Fe会作为叠加注意力机制模块的输入,叠加自注意力机制模块由四个相连接并且相同结构的自注意力机制组成,自注意力机制主要由CBR组成,经过四个相连接自注意力机制将每个点映射到[128-128-128-128]的维度上,将这4维度拼接起来形成G1的全局特征
Figure FDA0003519351400000031
其大小为[128×512];同理,通过G2(N*,3)得到的全局特征
Figure FDA0003519351400000032
和通过G3(N**,3)得到的全局特征
Figure FDA0003519351400000033
的大小都为[128×512],拼接
Figure FDA0003519351400000034
Figure FDA0003519351400000035
再经过最大池化得到全局特征向量Fp,Fp维度为[1×1536]。
6.根据权利要求4所述的方法,其特征在于,特征解码器主要由前馈神经网络组成,主要是对全局特征Fp解码,特征解码器将全局特征向量Fp作为它的输入,其内部由线性层和CBR组成,将[1×1536]维度的全局特征向量Fp解码成[M×3]的点云POut,Pout表示缺失部分的点云,M是缺失点的数量。
7.根据权利要求1所述的方法,其特征在于,判别器由三个CBR、两个LBR和一个线性层组成,判别器将缺失部分的点云POut作为输入,通过三个连续的CBR产生[64-128-256]维度的中间特征,拼接该中间特征再经过最大池化得到[1×448]特征,然后通过两个LBR和一个线性层得到一个标量V,V代表生成器生成的缺失部分的点云Pout的得分。
8.根据权利要求1所述的方法,其特征在于,所述损失函数为:
Figure FDA0003519351400000036
其中,LCD(S1,S2)为缺失部分的点云Pout和切割部分点云PGT之间的差距,S1为缺失部分的点云Pout,S2为切割部分点云PGT,x为缺失部分的点云Pout的某个点,y为切割部分点云PGT的某个点。
CN202210173243.XA 2022-02-24 2022-02-24 基于生成对抗网络的端到端点云补全方法 Pending CN114638751A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210173243.XA CN114638751A (zh) 2022-02-24 2022-02-24 基于生成对抗网络的端到端点云补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210173243.XA CN114638751A (zh) 2022-02-24 2022-02-24 基于生成对抗网络的端到端点云补全方法

Publications (1)

Publication Number Publication Date
CN114638751A true CN114638751A (zh) 2022-06-17

Family

ID=81948387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210173243.XA Pending CN114638751A (zh) 2022-02-24 2022-02-24 基于生成对抗网络的端到端点云补全方法

Country Status (1)

Country Link
CN (1) CN114638751A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115223019A (zh) * 2022-07-14 2022-10-21 清华大学 一种基于相机与激光雷达融合的全天时停车位检测方法
CN115496881A (zh) * 2022-10-19 2022-12-20 南京航空航天大学深圳研究院 单目图像辅助的大型飞机点云补全方法
WO2024060395A1 (zh) * 2022-09-19 2024-03-28 南京邮电大学 一种基于深度学习的高精度点云补全方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115223019A (zh) * 2022-07-14 2022-10-21 清华大学 一种基于相机与激光雷达融合的全天时停车位检测方法
CN115223019B (zh) * 2022-07-14 2023-05-19 清华大学 一种基于相机与激光雷达融合的全天时停车位检测方法
WO2024060395A1 (zh) * 2022-09-19 2024-03-28 南京邮电大学 一种基于深度学习的高精度点云补全方法及装置
CN115496881A (zh) * 2022-10-19 2022-12-20 南京航空航天大学深圳研究院 单目图像辅助的大型飞机点云补全方法
CN115496881B (zh) * 2022-10-19 2023-09-22 南京航空航天大学深圳研究院 单目图像辅助的大型飞机点云补全方法

Similar Documents

Publication Publication Date Title
CN110458939B (zh) 基于视角生成的室内场景建模方法
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
CN114638751A (zh) 基于生成对抗网络的端到端点云补全方法
CN112241997B (zh) 基于多尺度点云上采样的三维模型建立、修复方法及系统
Zisserman et al. 3D object recognition using invariance
CN112801169B (zh) 一种基于改进yolo算法的伪装目标检测方法、系统、装置及存储介质
CN112861729B (zh) 一种基于伪深度图引导的实时深度补全方法
Kazhdan An approximate and efficient method for optimal rotation alignment of 3D models
CN112927357A (zh) 一种基于动态图网络的3d物体重建方法
Denninger et al. 3d scene reconstruction from a single viewport
CN114332302A (zh) 一种基于多尺度自注意力网络的点云补全系统及方法
CN111127538A (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN114120115B (zh) 一种融合点特征和网格特征的点云目标检测方法
CN113838005B (zh) 基于维度转换的岩体裂隙智能识别与三维重构方法及系统
CN113379646A (zh) 一种利用生成对抗网络进行稠密点云补全的算法
CN114067075A (zh) 基于生成对抗网络的点云补全方法及装置
Afifi et al. Pixel2Point: 3D object reconstruction from a single image using CNN and initial sphere
CN116543152A (zh) 一种基于对象增强的高分辨率遥感图像语义分割方法
CN114020953A (zh) 外观设计产品的多图检索方法及装置
CN117036425A (zh) 点云分级决策配准方法、系统、设备及介质
CN115937406A (zh) 三维重建方法、装置、设备及存储介质
CN115393601A (zh) 一种基于点云数据的三维目标检测方法
CN112581626B (zh) 一种基于非参数化和多注意力机制的复杂曲面测量系统
CN116758214A (zh) 遥感图像的三维建模方法、装置、电子设备及存储介质
Lin et al. A-SATMVSNet: An attention-aware multi-view stereo matching network based on satellite imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination