CN117689560A - 基于图像的场景点云增强方法及装置 - Google Patents
基于图像的场景点云增强方法及装置 Download PDFInfo
- Publication number
- CN117689560A CN117689560A CN202311502599.4A CN202311502599A CN117689560A CN 117689560 A CN117689560 A CN 117689560A CN 202311502599 A CN202311502599 A CN 202311502599A CN 117689560 A CN117689560 A CN 117689560A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- target point
- cloud data
- data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000000007 visual effect Effects 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000011156 evaluation Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 28
- 238000012360 testing method Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本申请公开了一种基于图像的场景点云增强方法及装置,其中,方法包括:获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据;对单目视觉图像数据和第二目标点云数据进行特征提取,得到至少一个特征点,从而生成第三目标点云数据;利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,以生成增强后的三维点云。由此,解决了相关技术中由于低精度点云数据增强缺乏对图像信息的利用,降低点云增强的精准性,并且侧重于点云数据的局部增强,降低点云增强的适用性的问题。
Description
技术领域
本申请涉及计算机视觉技术领域,特别涉及一种基于图像的场景点云增强方法及装置。
背景技术
相关技术中,可以通过三维激光扫描仪或者多目视觉系统获取高精度三维点云数据,或者通过低精度点云数据增强方法,如基于插值、平滑等简单数学运算,从低精度点云数据中生成高精度点云数据,从而实现点云增强。
然而,相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性,亟待解决。
发明内容
本申请提供一种基于图像的场景点云增强方法及装置,以解决相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性的问题。
本申请第一方面实施例提供一种基于图像的场景点云增强方法,包括以下步骤:获取单目视觉图像数据和所述单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对所述第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据;对所述单目视觉图像数据和所述第二目标点云数据进行特征提取,得到至少一个特征点,并利用所述至少一个特征点生成第三目标点云数据;利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估,得到评估结果,将所述评估结果进行矫正,以生成增强后的三维点云。
可选地,在本申请的一个实施例中,所述对所述单目视觉图像数据和所述第二目标点云数据进行特征提取,获取至少一个特征点,利用所述至少一个特征点生成第三目标点云数据,包括:利用目标图像特征提取器和目标点云特征提取器,分别提取所述单目视觉图像和所述第二目标点云数据的至少一个特征,并根据所述至少一个特征获取所述至少一个特征点;将所述至少一个特征点进行融合,得到融合后的特征,将所述融合后的特征输入至多层上采样层和卷积层构成的解码器中进行重建,得到重建结果,并根据所述重建结果生成所述第三目标点云数据。
可选地,在本申请的一个实施例中,在利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估之前,还包括:使用测试集计算所述第三目标点云数据与所述第一目标点云数据之间的距离和重建精度,以根据所述距离和所述重建精度评估所述预先训练模型。
可选地,在本申请的一个实施例中,所述使用测试集计算所述第三目标点云数据与所述第一目标点云数据之间的距离和重建精度,包括:将目标Wasserstein距离作为损失函数,计算所述第三目标点云数据与所述第一目标点云数据之间的距离。
可选地,在本申请的一个实施例中,其中,所述损失函数的约束条件表示为:
其中,fij表示是否将第三目标点云中编号为i的点云数据Pi与第一目标点云中编号为j的点云数据Qj匹配,n表示第一、第三目标点云中点的个数,其中,fij取0/1,Pi表示第三目标点云数据,Qj表示第一目标点云数据;
所述损失函数的目标函数表示为:
其中,Dij=[dij],表示一个n行n列的矩阵,其中,第i行第j列的元素dij为Pi到Qj的欧氏距离,Fij=[fij],表示是否将Pi与Qj匹配,其中,Pi表示第三目标点云数据,Qj表示第一目标点云数据。
本申请第二方面实施例提供一种基于图像的场景点云增强装置,包括:获取模块,用于获取单目视觉图像数据和所述单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对所述第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据;确定模块,用于对所述单目视觉图像数据和所述第二目标点云数据进行特征提取,得到至少一个特征点,并利用所述至少一个特征点生成第三目标点云数据;处理模块,用于利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估,得到评估结果,将所述评估结果进行矫正,以生成增强后的三维点云。
可选地,在本申请的一个实施例中,所述确定模块包括:获取单元,用于利用目标图像特征提取器和目标点云特征提取器,分别提取所述单目视觉图像和所述第二目标点云数据的至少一个特征,并根据所述至少一个特征获取所述至少一个特征点;确定单元,用于将所述至少一个特征点进行融合,得到融合后的特征,将所述融合后的特征输入至多层上采样层和卷积层构成的解码器中进行重建,得到重建结果,并根据所述重建结果生成所述第三目标点云数据。
可选地,在本申请的一个实施例中,本申请实施例的装置还包括:计算模块,用于在利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估之前,使用测试集计算所述第三目标点云数据与所述第一目标点云数据之间的距离和重建精度,以根据所述距离和所述重建精度评估所述预先训练模型。
可选地,在本申请的一个实施例中,所述计算模块包括:计算单元,用于将目标Wasserstein距离作为损失函数,计算所述第三目标点云数据与所述第一目标点云数据之间的距离。
可选地,在本申请的一个实施例中,其中,所述损失函数的约束条件表示为:
其中,fij表示是否将第三目标点云中编号为i的点云数据Pi与第一目标点云中编号为j的点云数据Qj匹配,n表示第一、第三目标点云中点的个数,其中,fij取0/1,Pi表示第三目标点云数据,Qj表示第一目标点云数据;
所述损失函数的目标函数表示为:
其中,Dij=|dij],表示一个n行n列的矩阵,其中,第i行第j列的元素dij为Pi到Qj的欧氏距离,Fij=[fij],表示是否将Pi与Qj匹配,其中,Pi表示第三目标点云数据,Qj表示第一目标点云数据。
本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的基于图像的场景点云增强方法。
本申请第四方面实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,该程序被处理器执行时实现如上的基于图像的场景点云增强方法。
本申请实施例可以获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,并进行下采样,得到精度低于第二预设值的第二目标点云数据,对单目视觉图像数据和第二目标点云数据进行特征提取,得到特征点,从而生成第三目标点云数据,利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,生成增强后的三维点云,从而有效的提升了点云增强的精准性,并且提升了点云增强的适用性。由此,解决了相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性的问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种基于图像的场景点云增强方法的流程图;
图2为本申请一个具体实施例的MonoDep-Transformer图像特征提取器与LQPC-Conv点云特征提取器的模型结构示意图;
图3为本申请一个具体实施例的MonoDep-Transformer图像特征提取器的各部件参数设计示意图;
图4为本申请一个具体实施例的LQPC-Conv点云特征提取器以及PCGenConv点云生成网络的各部件参数设计示意图;
图5为根据本申请实施例提供的一种基于图像的场景点云增强装置的结构示意图;
图6为根据本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于图像的场景点云增强方法及装置。针对上述背景技术中心提到的相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性的问题,本申请提供了一种基于图像的场景点云增强方法,在该方法中,可以获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,并进行下采样,得到精度低于第二预设值的第二目标点云数据,对单目视觉图像数据和第二目标点云数据进行特征提取,得到特征点,从而生成第三目标点云数据,利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,生成增强后的三维点云,从而有效的提升了点云增强的精准性,并且提升了点云增强的适用性。由此,解决了相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性的问题。
具体而言,图1为本申请实施例所提供的一种基于图像的场景点云增强方法的流程示意图。
如图1所示,该基于图像的场景点云增强方法包括以下步骤:
在步骤S101中,获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据。
可以理解的是,本申请实施例可以获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,举例而言,本申请实施例可以通过相机镜头和激光扫描仪获取单目视觉图像数据,并获取单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据,其中,第一预设值大于第二预设值,有效的提升了点云增强的可执行性。
在步骤S102中,对单目视觉图像数据和第二目标点云数据进行特征提取,得到至少一个特征点,并利用至少一个特征点生成第三目标点云数据。
可以理解的是,本申请实施例可以对下述步骤中的单目视觉图像数据和第二目标点云数据进行特征提取,得到至少一个特征点,并利用至少一个特征点生成第三目标点云数据,从而有效的提升了点云的精度。
其中,在本申请的一个实施例中,对单目视觉图像数据和第二目标点云数据进行特征提取,获取至少一个特征点,利用至少一个特征点生成第三目标点云数据,包括:利用目标图像特征提取器和目标点云特征提取器,分别提取单目视觉图像和第二目标点云数据的至少一个特征,并根据至少一个特征获取至少一个特征点;将至少一个特征点进行融合,得到融合后的特征,将融合后的特征输入至多层上采样层和卷积层构成的解码器中进行重建,得到重建结果,并根据重建结果生成第三目标点云数据。
在实际执行过程中,本申请实施例可以利用单目视觉图像数据和第一目标点云数据,对MonoDep-Transformer图像特征提取器进行预训练,接着,使用MonoDep-Transformer图像特征提取器和LQPC-Conv点云特征提取器,分别从单目视觉图像和第二目标点云数据中提取特征,并根据特征获取特征点,其次,可以将从单目视觉图像数据和第二目标点云数据中提取的特征进行加权融合,得到融合后的特征,再次,可以使用融合后的特征作为输入,通过多层上采样层和卷积层构成的PCGenConv解码器进行重建,得到重建结果,并根据重建结果生成第三目标点云数据,从而有效的提升了点云增强的鲁棒性。
其中,可以将生成的第三目标点云数据进行后处理,例如,去除噪声、进行滤波、进行点云配准等操作,以进一步提升点云的精度和质量。
需要说明的是,结合图2和图3所示,MonoDep-Transformer图像特征提取器可以使用基于Transformer的MonoDep-Transformer网络结构,通过应用于单目估计任务进行预训练,可以从单目视觉图像中提取高级语义特征。
结合图2和图4所示,LQPC-Conv点云特征提取器可以采用基于FKA-Conv的LPPC-Conv网络结构,用于从第一目标点云提取点云的结构特征,显式分离几何无关的卷积核权重估计和特征空间的对齐。
如图4所示,PCGenConv解码器包含多层卷积层和上采样层,可以通过多层上采样和多层卷积操作,将单目视觉图像数据和第二目标点云数据中提取的特征进行融合和重建,生成第三目标点云数据。
综上,本申请实施例可以适用于点云数据的全局增强,提升了点云增强的适用性,并且提高了点云增强的精准性。
在步骤S103中,利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,以生成增强后的三维点云。
可以理解的是,本申请实施例可以对利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,例如,可以通过使用预先设置的评估指标评估神经网络生成的点云精度增强效果,并得到评估结果,将评估结果进行矫正,以生成增强后的三维点云,从而有效的提升了点云增强的精准性,并且提升了点云增强的适用性。
可选地,在本申请的一个实施例中,在利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估之前,还包括:使用测试集计算第三目标点云数据与第一目标点云数据之间的距离和重建精度,以根据距离和重建精度评估预先训练模型。
作为一种可能实现的方式,本申请实施例可以使用下述步骤中的使用测试集计算第三目标点云数据与第一目标点云数据之间的距离和重建精度,以根据距离和重建精度评估预先训练模型的性能,从而生成更加接近真实点云的高精度点云。
其中,在本申请的一个实施例中,使用测试集计算第三目标点云数据与第一目标点云数据之间的距离和重建精度,包括:将目标Wasserstein距离作为损失函数,计算第三目标点云数据与第一目标点云数据之间的距离。
在部分实施例中,本申请实施例可以将目标Wasserstein距离作为损失函数,计算第三目标点云数据与第一目标点云数据之间的距离,根据损失函数的梯度信息,进行反向传播更新神经网络的权重和偏置,使神经网络能够逐渐学习到更好的点云生成能力,并且重复生成第三目标点云数据,计算第三目标点云数据与第一目标点云数据之间的距离,直到网络收敛并满足验证集的预设标准,即引导神经网络学习可以生成第三目标点云数据,即更加接近真实点云的高精度点云从而有效的提升了点云增强的精确性。
其中,在本申请的一个实施例中,其中,损失函数的约束条件表示为:
其中,fij表示是否将第三目标点云中编号为i的点云数据Pi与第一目标点云中编号为j的点云数据Qj匹配,n表示第一、第三目标点云中点的个数,其中,fij取0/1,Pi表示第三目标点云数据,Qj表示第一目标点云数据;
损失函数的目标函数表示为:
其中,Dij=[dij],表示一个n行n列的矩阵,其中,第i行第j列的元素dij为Pi到Qj的欧氏距离,Fij=[fij],表示是否将Pi与Qj匹配,其中,Pi表示第三目标点云数据,Qj表示第一目标点云数据。
举例而言,如图2所示,首先,本申请实施例可以获取单目视觉图像和第一目标点云数据,并对第一目标点云数据进行下采样得到对应的第二目标点云数据,以及将第一目标点云数据中的点与单目视觉图像相对应,得到深度估计的真实值,其中,可以将原始数据集按6∶1∶1分成训练集、验证集和测试集。
其次,可以构建MonoDep-Transformer模型,对原始图像按224*224的大小进行切分后,利用预训练的Resnet-50模型进行预编码,获得待处理图像块的初始向量表示,将初始向量输入由4个Transformer编码器提取全局关联特征和层次化的序列特征,最后使用RefineNet模型来融合特征取得深度图预测值,通过深度估计的真实值进行监督来调整MonoDep-Transformer的参数。
最后,可以构建LQPC-Conv点云特征提取器,PCGenConv点云生成网络,并实现基于Wasserstein距离的损失函数,从而训练提取器和生成网络。
综上,本申请实施例可以通过单目视觉图像和第二目标点云数据,输入训练好的网络,即可获得第三目标点云数据,并且可以根据实际需要进行上述步骤中的后处理,最终生成高精度且质量优良的三维点云。
根据本申请实施例提出的基于图像的场景点云增强方法,可以获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,并进行下采样,得到精度低于第二预设值的第二目标点云数据,对单目视觉图像数据和第二目标点云数据进行特征提取,得到特征点,从而生成第三目标点云数据,利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,生成增强后的三维点云,从而有效的提升了点云增强的精准性,并且提升了点云增强的适用性。由此,解决了相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性的问题。
其次参照附图描述根据本申请实施例提出的基于图像的场景点云增强装置。
图5是本申请实施例的基于图像的场景点云增强装置的方框示意图。
如图5所示,该基于图像的场景点云增强装置10包括:获取模块100、确定模块200和处理模块300。
具体地,获取模块100,用于获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据。
确定模块200,用于对单目视觉图像数据和第二目标点云数据进行特征提取,得到至少一个特征点,并利用至少一个特征点生成第三目标点云数据。
处理模块300,用于利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,以生成增强后的三维点云。
可选地,在本申请的一个实施例中,确定模块200包括:获取单元和确定单元。
其中,获取单元,用于利用目标图像特征提取器和目标点云特征提取器,分别提取单目视觉图像和第二目标点云数据的至少一个特征,并根据至少一个特征获取至少一个特征点。
确定单元,用于将至少一个特征点进行融合,得到融合后的特征,将融合后的特征输入至多层上采样层和卷积层构成的解码器中进行重建,得到重建结果,并根据重建结果生成第三目标点云数据。
可选地,在本申请的一个实施例中,本申请实施例的装置10还包括:计算模块。
其中,计算模块,用于在利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估之前,使用测试集计算第三目标点云数据与第一目标点云数据之间的距离和重建精度,以根据距离和重建精度评估预先训练模型。
可选地,在本申请的一个实施例中,计算模块包括:计算单元。
其中,计算单元,用于将目标Wasserstein距离作为损失函数,计算第三目标点云数据与第一目标点云数据之间的距离。
可选地,在本申请的一个实施例中,其中,损失函数的约束条件表示为:
其中,fij表示是否将第三目标点云中编号为i的点云数据Pi与第一目标点云中编号为j的点云数据Qj匹配,n表示第一、第三目标点云中点的个数,其中,fij取0/1,Pi表示第三目标点云数据,Qi表示第一目标点云数据;
损失函数的目标函数表示为:
其中,Dij=[dij],表示一个n行n列的矩阵,其中,第i行第j列的元素dij为Pi到Qj的欧氏距离,Fij=[fij],表示是否将Pi与Qj匹配,其中,Pi表示第三目标点云数据,Qj表示第一目标点云数据。
需要说明的是,前述对基于图像的场景点云增强方法实施例的解释说明也适用于该实施例的基于图像的场景点云增强装置,此处不再赘述。
根据本申请实施例提出的基于图像的场景点云增强装置,可以获取单目视觉图像数据和单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,并进行下采样,得到精度低于第二预设值的第二目标点云数据,对单目视觉图像数据和第二目标点云数据进行特征提取,得到特征点,从而生成第三目标点云数据,利用预先训练模型将第三目标点云数据与第一目标点云数据进行对比并评估,得到评估结果,将评估结果进行矫正,生成增强后的三维点云,从而有效的提升了点云增强的精准性,并且提升了点云增强的适用性。由此,解决了相关技术中由于低精度点云数据增强缺乏对图像信息的利用,导致生成的高精度点云数据精度较低,降低了点云增强的精准性,并且侧重于点云数据的局部增强,降低了点云增强的适用性的问题。
图6为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器601、处理器602及存储在存储器601上并可在处理器602上运行的计算机程序。
处理器602执行程序时实现上述实施例中提供的基于图像的场景点云增强方法。
进一步地,电子设备还包括:
通信接口603,用于存储器601和处理器602之间的通信。
存储器601,用于存放可在处理器602上运行的计算机程序。
存储器601可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器601、处理器602和通信接口603独立实现,则通信接口603、存储器601和处理器602可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponentInterconnect,简称为PCI)总线或扩展工业标准体系结构(Extended IndustryStandard Architecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选地,在具体实现上,如果存储器601、处理器602及通信接口603,集成在一块芯片上实现,则存储器601、处理器602及通信接口603可以通过内部接口完成相互间的通信。
处理器602可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的基于图像的场景点云增强方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,″计算机可读介质″可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或多项的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于图像的场景点云增强方法,其特征在于,包括以下步骤:
获取单目视觉图像数据和所述单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对所述第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据;
对所述单目视觉图像数据和所述第二目标点云数据进行特征提取,得到至少一个特征点,并利用所述至少一个特征点生成第三目标点云数据;以及
利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估,得到评估结果,将所述评估结果进行矫正,以生成增强后的三维点云。
2.根据权利要求1所述的方法,其特征在于,所述对所述单目视觉图像数据和所述第二目标点云数据进行特征提取,获取至少一个特征点,利用所述至少一个特征点生成第三目标点云数据,包括:
利用目标图像特征提取器和目标点云特征提取器,分别提取所述单目视觉图像和所述第二目标点云数据的至少一个特征,并根据所述至少一个特征获取所述至少一个特征点;
将所述至少一个特征点进行融合,得到融合后的特征,将所述融合后的特征输入至多层上采样层和卷积层构成的解码器中进行重建,得到重建结果,并根据所述重建结果生成所述第三目标点云数据。
3.根据权利要求1所述的方法,其特征在于,在利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估之前,还包括:
使用测试集计算所述第三目标点云数据与所述第一目标点云数据之间的距离和重建精度,以根据所述距离和所述重建精度评估所述预先训练模型。
4.根据权利要求3所述的方法,其特征在于,所述使用测试集计算所述第三目标点云数据与所述第一目标点云数据之间的距离和重建精度,包括:
将目标Wasserstein距离作为损失函数,计算所述第三目标点云数据与所述第一目标点云数据之间的距离。
5.根据权利要求4所述的方法,其特征在于,其中,
所述损失函数的约束条件表示为:
其中,fij表示是否将第三目标点云中编号为i的点云数据Pi与第一目标点云中编号为j的点云数据Qj匹配,n表示第一、第三目标点云中点的个数,其中,fij取0/1,Pi表示第三目标点云数据,Qj表示第一目标点云数据;
所述损失函数的目标函数表示为:
其中,Dij=[dij],表示一个n行n列的矩阵,其中,第i行第j列的元素dij为Pi到Qj的欧氏距离,Fij=[fij],表示是否将Pi与Qj匹配,其中,Pi表示第三目标点云数据,Qj表示第一目标点云数据。
6.一种基于图像的场景点云增强装置,其特征在于,包括:
获取模块,用于获取单目视觉图像数据和所述单目视觉图像数据对应的精度大于第一预设值的第一目标点云数据,对所述第一目标点云数据进行下采样,得到精度低于第二预设值的第二目标点云数据;
确定模块,用于对所述单目视觉图像数据和所述第二目标点云数据进行特征提取,得到至少一个特征点,并利用所述至少一个特征点生成第三目标点云数据;以及
处理模块,用于利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估,得到评估结果,将所述评估结果进行矫正,以生成增强后的三维点云。
7.根据权利要求6所述的装置,其特征在于,所述确定模块包括:
获取单元,用于利用目标图像特征提取器和目标点云特征提取器,分别提取所述单目视觉图像和所述第二目标点云数据的至少一个特征,并根据所述至少一个特征获取所述至少一个特征点;
确定单元,用于将所述至少一个特征点进行融合,得到融合后的特征,将所述融合后的特征输入至多层上采样层和卷积层构成的解码器中进行重建,得到重建结果,并根据所述重建结果生成所述第三目标点云数据。
8.根据权利要求6所述的装置,其特征在于,还包括:
计算模块,用于在利用预先训练模型将所述第三目标点云数据与所述第一目标点云数据进行对比并评估之前,使用测试集计算所述第三目标点云数据与所述第一目标点云数据之间的距离和重建精度,以根据所述距离和所述重建精度评估所述预先训练模型。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1-5任一项所述的基于图像的场景点云增强方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1-5任一项所述的基于图像的场景点云增强方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311502599.4A CN117689560A (zh) | 2023-11-08 | 2023-11-08 | 基于图像的场景点云增强方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311502599.4A CN117689560A (zh) | 2023-11-08 | 2023-11-08 | 基于图像的场景点云增强方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117689560A true CN117689560A (zh) | 2024-03-12 |
Family
ID=90129064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311502599.4A Pending CN117689560A (zh) | 2023-11-08 | 2023-11-08 | 基于图像的场景点云增强方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117689560A (zh) |
-
2023
- 2023-11-08 CN CN202311502599.4A patent/CN117689560A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113902926A (zh) | 一种基于自注意力机制的通用图像目标检测方法和装置 | |
CN111160375A (zh) | 三维关键点预测及深度学习模型训练方法、装置及设备 | |
US20220080980A1 (en) | Device for predicting speed of vehicle and method thereof | |
CN111738270B (zh) | 模型生成方法、装置、设备和可读存储介质 | |
WO2020150077A1 (en) | Camera self-calibration network | |
CN113228096A (zh) | 通过机器学习进行光学矫正 | |
CN114694005A (zh) | 目标检测模型训练方法和装置、目标检测方法和装置 | |
CN117274072A (zh) | 一种基于二维多模态范围图像的点云去噪方法及装置 | |
CN112101456A (zh) | 注意力特征图获取方法及装置、目标检测的方法及装置 | |
CN111223039A (zh) | 图像风格转换方法、装置、电子设备及存储介质 | |
CN117351448B (zh) | 一种基于YOLOv8改进的偏振图像道路目标检测方法 | |
CN114202457A (zh) | 低分辨率图像的处理方法、电子设备及计算机程序产品 | |
CN116385369A (zh) | 深度图像质量评价方法、装置、电子设备及存储介质 | |
CN114820755B (zh) | 一种深度图估计方法及系统 | |
CN114549429B (zh) | 基于超图结构的深度数据质量评价方法及装置 | |
CN117689560A (zh) | 基于图像的场景点云增强方法及装置 | |
CN115294361A (zh) | 一种特征提取的方法及装置 | |
CN115760807A (zh) | 一种视网膜眼底图像配准方法及系统 | |
CN112257686B (zh) | 人体姿态识别模型的训练方法、装置及存储介质 | |
CN110544256B (zh) | 基于稀疏特征的深度学习图像分割方法及装置 | |
CN114494065A (zh) | 图像去模糊方法、装置、设备及可读存储介质 | |
CN108629788B (zh) | 一种图像边缘检测方法、装置、设备及可读存储介质 | |
CN113379770A (zh) | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 | |
US20230298326A1 (en) | Image augmentation method, electronic device and readable storage medium | |
CN114782672B (zh) | 一种点云位姿调整方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |